Ex empleados de OpenAI revelan preocupantes prácticas en el desarrollo responsable de la IA
Mientras la empresa enfrenta desafíos internos y externos, las voces de sus empleados resaltan la urgencia de establecer un marco regulatorio robusto que priorice la seguridad y la transparencia.
Un grupo de antiguos y actuales empleados de OpenAI están alzando la voz sobre lo que describen como una peligrosa carrera por la supremacía en inteligencia artificial, caracterizada por una falta de transparencia y medidas de seguridad insuficientes. Este grupo aboga por una mayor protección para los denunciantes y una regulación más estricta en el sector.
Los empleados, entre ellos nueve antiguos trabajadores de OpenAI, critican la cultura interna de la empresa, que prioriza el crecimiento y los beneficios por encima de la seguridad. Afirman que OpenAI, originariamente un laboratorio de investigación sin ánimo de lucro que ganó notoriedad con el lanzamiento de ChatGPT en 2022, ha adoptado tácticas restrictivas para silenciar las preocupaciones de sus empleados, incluyendo acuerdos de no desprestigio para los que se marchan.
Daniel Kokotajlo, ex investigador en la división de gobernanza de OpenAI, lidera el grupo que publicó una carta abierta demandando mayor transparencia y protecciones para los denunciantes en todas las principales empresas de inteligencia artificial. "OpenAI está peligrosamente ansiosa por ser la primera en lograr una inteligencia artificial general (IAG)", declaró Kokotajlo.
La carta abierta, firmada también por William Saunders y otros antiguos empleados, así como por trabajadores anónimos de OpenAI y Google DeepMind, llega en un momento complicado para OpenAI. La compañía todavía se recupera de la crisis de liderazgo del año pasado, cuando Sam Altman fue despedido y luego reinstalado como director ejecutivo, y enfrenta múltiples desafíos legales por presuntas violaciones de derechos de autor.
Además, la reciente salida de destacados investigadores como Ilya Sutskever y Jan Leike, quienes advirtieron sobre los riesgos de los avanzados modelos de IA, ha aumentado la preocupación entre los empleados sobre la dirección de la empresa. La portavoz de OpenAI, Lindsey Held, defendió la trayectoria de la empresa, destacando su compromiso con la seguridad y el debate riguroso.
Las alarmas sobre los riesgos de la inteligencia artificial no son nuevas, pero el llamado a la acción de estos empleados refleja una creciente inquietud sobre la velocidad y la dirección del desarrollo de la IA. Kokotajlo, quien predijo la llegada de una IAG para 2027, expresó su preocupación por la falta de preparación global y de la propia OpenAI ante esta posibilidad.
Los denunciantes, respaldados por el abogado Lawrence Lessig, piden una regulación gubernamental que complemente la autorregulación corporativa para asegurar que la IA se desarrolle de manera segura y transparente. Insisten en que los empleados deben tener canales seguros para expresar sus preocupaciones sin temor a represalias.
La controversia en OpenAI subraya la necesidad de un equilibrio entre innovación y responsabilidad en el desarrollo de inteligencia artificial. Mientras la empresa enfrenta desafíos internos y externos, las voces de sus empleados resaltan la urgencia de establecer un marco regulatorio robusto que priorice la seguridad y la transparencia. Es imperativo que tanto las empresas como los gobiernos trabajen juntos para garantizar que el avance de la inteligencia artificial no comprometa la seguridad global.